Accelerating Research with AI 生成式 AI 系統的工作原理

生成式 AI 的工作方式就像一個“文字填空遊戲”。當你給它一個句子時,它會根據之前的內容去預測下一個最有可能的單詞。它並不是一個“記憶力超強”的資料庫,而是一個“猜詞高手”。這種預測能力依賴於一種叫“神經網路”的技術,並且每個單詞在 AI 的眼中,都被看作是一個多維空間中的點(詞嵌入),這些點的相對位置決定了單詞之間的語義關係。

AI 預測單詞的方式:機率預測

生成式 AI 就像一個“填字遊戲玩家”。當你說:“它正在下著大雨貓和___”,AI 很有可能會接上“狗”,因為“貓和狗”是英文中一個常見的說法(It’s raining cats and dogs)。它的預測並不是隨機的,而是基於它在海量文字中學到的單片語合模式。

生成式人工智慧系統可能會在"森林裡迴盪著歌聲……"這句話中用"鳥兒"一詞來填補空白。
LLM 不僅僅預測一個單詞來填補空白,它還會給出多種可能,以及每種可能出現的機率。

什麼是神經網路?

可以把神經網路想象成一組訓練有素的樂隊。每個神經元(樂手)自己演奏一個簡單的音符,但當多個神經元合作時,就能演奏出複雜的交響樂。神經網路由多個“層”組成:

深度神經網路在輸入層和輸出層之間有一個或多個隱藏層。
神經網路中的每個節點(或人工神經元)都將前一層神經元的輸出作為輸入。
每個神經元接收到的資訊,會根據它與其他神經元的“連線強度”(權重)進行加權處理,再透過一個“啟用函式”決定它是否要將訊號傳遞給下一層神經元。這些連線強度和啟用方式就是模型的“引數”。

舉例來說,如果神經網路被輸入一隻貓的圖片,它可能先識別出“貓耳朵”、“貓眼睛”,然後綜合這些資訊,最終輸出“這是隻貓”的判斷。

單詞是如何被 AI 理解的:詞嵌入(Word Embeddings)

在 AI 的世界裡,單詞不是以文字形式存在的,而是被轉化成一種“座標”。想象一下,我們要在二維平面上定位一個點,我們會用 (x, y) 座標來表示它的位置。

類似地,AI 會用一個多維的座標來表示單詞。例如,“水”這個詞會被放在接近“海洋”的位置,因為它們在語義上關係緊密。而“沙子”可能會被放在接近“沙漠”的位置。

透過這種方式,AI 可以透過“看”不同單詞之間的相對位置來推斷它們之間的關係。比如,“水”和“沙子”可能不會離得很近,但“水”和“冰”一定是在某個維度上非常接近的。

Transformer 架構:AI 的“超級大腦”

Transformer 是一種特殊的神經網路,它使得 AI 能夠高效地處理大量文字,並能理解上下文關係。

AI 學習語言的過程

生成式 AI 透過"閱讀"海量網際網路文字來學習語言。它識別語法和語義規則,並不斷調整引數以生成符合人類邏輯的文字。經過多輪訓練和微調,AI 能夠生成自然的回覆。

這些原理使生成式 AI 能夠執行從簡單的單詞填充到複雜的文章生成和對話任務。